Mindste kvadraters metode

Der er for få eller ingen kildehenvisninger i denne artikel, hvilket er et problem. Du kan hjælpe ved at angive troværdige kilder til de påstande, som fremføres i artiklen.
Lineær regression til datapunkter. Forskellen i y-værdier (grøn) bruges til at finde den optimale regression.

Mindste kvadraters metode er en standard fremgangsmåde til at finde den bedste løsning for et overbestemt system, for eksempel et ligningssystem med flere ligninger end ubekendte. Den bedste, skal her forstås som dén løsning der giver den mindste sum af kvadraterne på fejlene i hver enkelt ligning.

Mindste kvadraters metode benyttes blandt andet i regressionsanalyse, for eksempel til at finde den bedste rette linje der beskriver en linær sammenhæng mellem to dataset. Metoden minimerer her summen af kvadraterne på residualerne (de lodrette afstande mellem de enkelte punkter og den rette linje).

Dette kan gøres grafisk ved at tegne punkterne fra et datasæt ind i et koordinatsystem og tegne en ret linje, som ligger nogenlunde der, hvor man tror, den bedste rette linje kan ligge. Herefter tegnes de lodrette afstande mellem punkterne og linjen. Disse punkter kvadreres så. Afstanden mellem punktet og linjen er den ene side i et kvadrat. Man kan så rykke rundt på linjen ved at rotere den og parallelforskyde den, indtil det samlede areal af alle kvadraterne er mindst muligt. Heraf navnet ”Mindste kvadraters metode”.

Der er dog også en anden mulighed, som man kan bruge, hvis man vil slippe for det grafiske. Denne måde er god, da den er mere præcis og mere tilgængelig, hvis man skal regne det i hånden:

Når man har den lodrette afstand mellem punktet og linjen, sætter man afstanden i anden og lægger den sammen med alle de andre punkters kvadrerede afstande. Det udtryk, man her får, skal differentieres. Først differentieres det med hensyn til den ene ubekendte konstant, derefter differentieres det med den anden ubekendte konstant. På dette tidspunkt har man fået to ligninger med to ubekendte. For at løse disse ligninger isolerer man først den ene ubekendte konstant i den ene ligning, hvorefter man sætter resultatet ind på den ubekendte konstants plads i den anden ligning. Bagefter gøres det samme med den anden ubekendte. Når man har fundet de to værdier, kan man sætte dem ind i ligningen for en lineær regression. Man har nu forskriften for den bedste rette linje.


From Wikipedia, the free encyclopedia · View on Wikipedia

Developed by Tubidy